„Granica między prawdą a fałszem już nie istnieje”: Sora 2, aplikacja generująca szalone filmy za pomocą sztucznej inteligencji

Zapamiętajcie tę nazwę, Sora 2. W ciągu zaledwie kilku dni stała się najpopularniejszą darmową aplikacją w App Store Apple w kilku krajach. Chociaż obecnie jest dostępna tylko na zaproszenie, Sora 2 cieszy się tak ogromną popularnością!
Przypomnijmy, że Sora to sztuczna inteligencja OpenAI do generowania wideo. Innymi słowy, z tekstu wygenerujesz minifilm, krótki klip. Na przykład kowboja robiącego szpagat na dwóch galopujących koniach albo sprintera pokonującego geparda na 100 metrów.
Zasada nie jest nowa, ale w Sora 2 wyraźnie zrobiliśmy krok naprzód… Po pierwsze, pod względem realizmu, efekt jest absolutnie niesamowity. Jednominutowe filmy o fotorealistycznej jakości, z hiperpłynnymi przejściami między scenami, spójnością elementów scenografii, poszanowaniem praw grawitacji, cieni, a także dźwięku, co koresponduje z treścią, na przykład komentarzem sportowym lub dziennikarskim. Filmy są niezwykle wiarygodne, jakbyśmy oglądali film lub reportaż.
Potem, ponieważ OpenAI wpadło na genialny pomysł stworzenia aplikacji społecznościowej, która czerpie z kodu Tiktoka . Z mnóstwem możliwości, takich jak udostępnianie swoich dzieł – również w innych sieciach społecznościowych – czy wstawianie siebie (lub innych osób) do filmów, stały się viralami i każdy mógł się w nie zaangażować.
Problem w tym, że oczywiście, gdy oddaje się takie narzędzie w ręce internautów, sprawy idą nie tak. Deepfake'i nie są niczym nowym, ale dzięki Sora 2 stają się całkowicie niewykrywalne i niekontrolowalne: Einstein uprawiający MMA czy Michael Jackson kradnący nuggetsy z kurczaka w restauracji. Jednym z najgorętszych trendów jest wskrzeszanie zmarłych, oczywiście bez zgody właścicieli praw autorskich.
Sora 2 pozwala generować filmy z całkowitą i celową dezinformacją, na przykład fałszywe przemówienia polityków. Użytkownicy internetu, którzy użyli Sora 2 do generowania hiperbrutalnych, ale fałszywych filmów przedstawiających na przykład ataki, katastrofy, sceny paniki podczas masowej strzelaniny, sceny, które najwyraźniej nigdy nie istniały...
Nie ma tu poszanowania praw autorskich: można bez zezwolenia wykorzystywać i wykorzystywać wizerunek osoby lub postaci fikcyjnej: na przykład SpongeBoba w mundurze nazisty albo Mario lub Pikachu.
Granica między prawdą a fałszem już nie istnieje. Wszystko, co widzisz w mediach społecznościowych, można podważyć.
I nie ma wystarczających zabezpieczeń, aby z tym walczyć. Filmy generowane przez Sora nie są odpowiednio oznaczone. Można je wykryć, analizując charakterystykę filmu; jest coś w rodzaju znaku wodnego, ale niewidocznego gołym okiem. Biorąc pod uwagę tempo, w jakim oglądamy filmy w mediach społecznościowych, nikt nie zwróci uwagi na ten szczegół.
Teoretycznie tworzenie treści o charakterze brutalnym lub pornograficznym jest zabronione, ale subtelnie je „podsycając” zawsze osiąga się swoje cele (z tego punktu widzenia sztuczna inteligencja wciąż ma się czego uczyć od ludzi...). To wszystko jest tym bardziej zaskakujące, że pierwsza wersja Sory była sama w sobie hiperblokadowa, a nawet ocenzurowana lub wysterylizowana... Popadamy z jednej skrajności w drugą!
Ponieważ Open AI ściga się o szybkość i popularność z Google i jego Veo3, Runway, a nawet Grokiem . Jesteśmy w absolutnym sprincie i z tego punktu widzenia Open AI nawiązuje do jednej z najważniejszych mantr Doliny Krzemowej: „działaj szybko, naprawiaj później”, działaj szybko, aby pozyskać użytkowników, a błędy naprawiaj później…
RMC